817 resultados para Bases de dados de medicamentos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

A doença de Alzheimer (DA) afeta mais de um milhão de habitantes no Brasil com grande impacto tanto na saúde como social e financeiro. O uso adequado de medicamentos e os programas de cuidado integrado são recomendados como as melhores práticas nesta doença. Em 2002, o Ministério da Saúde criou o Programa de Assistência Farmacêutica aos Portadores de doença de Alzheimer que garante aos portadores desta patologia acesso à avaliação por especialistas e tratamento medicamentoso de alto custo. Mas, para um melhor planejamento das ações relacionadas ao programa, é importante entender os padrões de morbi-mortalidade da população alvo, qualidade da assistência oferecida e o seu impacto. Com foco nesse cenário, esta tese teve como objetivo o estudo da adesão, mortalidade e sobrevida em uma população portadora de doença de Alzheimer assistida nesse programa de assistência farmacêutica. Para apresentação dessa pesquisa, dividiram-se os resultados em três artigos. No primeiro artigo, o objetivo foi avaliar a viabilidade de se utilizar as informações de reabastecimento de receitas coletadas por esse programa na construção de medidas de adesão, uma metodologia já explorada na literatura internacional, mas com experiência limitada no Brasil. Os dados foram acessados nos formulários de Autorização de Procedimentos de Alto Custo (APAC) armazenados na base de dados do programa de acesso de medicamentos excepcionais do Sistema de Informação Ambulatorial (SIA). Como resultado, foram criadas várias medidas de adesão com potencial aplicação no campo da farmacoepidemiologia e planejamento em saúde. No segundo artigo, o foco foi entender que fatores individuais, terapêuticos ou relacionados à assistência, poderiam estar relacionados com um aumento do risco de abandono do programa. Fatores como o sexo feminino, o número de comorbidades na APAC, o tipo de inibidor de colinesterase iniciado e a irregularidade nos reabastecimentos foram associados a um maior risco de abandono do programa. No terceiro artigo, pelas técnicas de relacionamento probabilístico de base de dados, agregaram-se os dados presentes no Sistema de Informação sobre Mortalidade (SIM) para avaliação dos padrões de mortalidade desta patologia. Cerca de 40% dos pacientes foram a óbito durante todo o período de seguimento e principal causa básica de mortalidade foi a doença de Alzheimer (19%). Idade mais avançada e sexo masculino foram as únicas variáveis associadas com uma menor sobrevida. A persistência no programa em seis meses e os diferentes níveis de adesão, medidos pela proporção de posse da medicação, não mostraram associação com a sobrevida. Conclui-se que os dados disponíveis nas bases possibilitaram a investigação do padrão de mortalidade e utilização de um programa de assistência na doença de Alzheimer. E, a possibilidade de analisar grandes populações, em caráter contínuo, com medidas objetivas e com um custo relativamente baixo suplanta o caráter limitado das informações individuais e da doença. Políticas que suportem o aumento na disponibilidade, qualidade e escopo da informação e o avanço nas metodologias de pesquisa em bases de dados devem ser uma prioridade da saúde, pois contribuem com a criação de informações relevantes para um uso racional de recursos e melhora nas práticas de cuidado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Descreve a proposição, a aplicação e a avaliação de um método de classificação temática em uma base de dados com discursos proferidos por deputados federais no plenário da Câmara dos Deputados da República Federativa do Brasil entre outubro de 2000 e outubro de 2002, indexada com auxílio de um vocabulário controlado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação apresentada à Universidade Fernando Pessoa como partes dos requisitos para a obtenção do grau de Mestre em Engenharia Informática, ramo de Sistemas de Informação e Multimédia

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Relatório da prática de ensino supervisionada, Mestrado em Ensino de Informática, Universidade de Lisboa, 2014

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Relatório da prática de ensino supervisionada, Mestrado em Ensino da Informática, Universidade de Lisboa, 2014

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com a crescente popularização dos microcomputadores e da rede mundial de informação, Internet, uma enorme variedade e quantidade de informações estão se tornando acessíveis a um número cada vez maior de pessoas. Desta forma, também cresce a importância de se extrair a informação útil que está no grande conjunto das informações disponibilizadas. Hoje há muito mais dados na forma de textos eletrônicos do que em tempos passados, mas muito disto é ignorado. Nenhuma pessoa pode ler, entender e sintetizar megabytes de texto no seu cotidiano. Informações perdidas, e conseqüentemente oportunidades perdidas, estimularam pesquisas na exploração de várias estratégias para a administração da informação, a fim de estabelecer uma ordem na imensidão de textos. As estratégias mais comuns são recuperação de informações, filtragem de informações e outra relativamente nova, chamada de extração de informações. A extração de informações tem muitas aplicações potenciais. Por exemplo, a informação disponível em textos não-estruturados pode ser armazenada em bancos de dados tradicionais e usuários podem examiná-las através de consultas padrão. Para isso, há um complexo trabalho de gerenciamento, que é conseqüência da natureza não estruturada e da difícil análise dos dados. Os dados de entrada, que são os textos semi ou não-estruturados, são manipulados por um processo de extração configurado através de bases de conhecimento criadas pelo usuário do sistema. Esta dissertação tem como objetivo a definição de uma linguagem, com base em uma arquitetura de múltiplos níveis, para extrair satisfatoriamente as informações desejadas pelo usuário, presentes em bases de dados textuais. Também faz parte deste trabalho a implementação de um protótipo que utiliza a linguagem proposta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A comparação de dados de mercado é o método mais empregado em avaliação de imóveis. Este método fundamenta-se na coleta, análise e modelagem de dados do mercado imobiliário. Porém os dados freqüentemente contêm erros e imprecisões, além das dificuldades de seleção de casos e atributos relevantes, problemas que em geral são solucionados subjetivamente. Os modelos hedônicos de preços têm sido empregados, associados com a análise de regressão múltipla, mas existem alguns problemas que afetam a precisão das estimativas. Esta Tese investigou a utilização de técnicas alternativas para desenvolver as funções de preparação dos dados e desenvolvimento de modelos preditivos, explorando as áreas de descobrimento de conhecimento e inteligência artificial. Foi proposta uma nova abordagem para as avaliações, consistindo da formação de uma base de dados, ampla e previamente preparada, com a aplicação de um conjunto de técnicas para seleção de casos e para geração de modelos preditivos. Na fase de preparação dos dados foram utilizados as técnicas de regressão e redes neurais para a seleção de informação relevante, e o algoritmo de vizinhança próxima para estimação de valores para dados com erros ou omissões. O desenvolvimento de modelos preditivos incluiu as técnicas de regressão com superficies de resposta, modelos aditivos generalizados ajustados com algoritmos genéticos, regras extraídas de redes neurais usando lógica difusa e sistemas de regras difusas obtidos com algoritmos genéticos, os quais foram comparados com a abordagem tradicional de regressão múltipla Esta abordagem foi testada através do desenvolvimento de um estudo empírico, utilizando dados fornecidos pela Prefeitura Municipal de Porto Alegre. Foram desenvolvidos três formatos de avaliação, com modelos para análise de mercado, avaliação em massa e avaliação individual. Os resultados indicaram o aperfeiçoamento da base de dados na fase de preparação e o equilíbrio das técnicas preditivas, com um pequeno incremento de precisão, em relação à regressão múltipla.Os modelos foram similares, em termos de formato e precisão, com o melhor desempenho sendo atingido com os sistemas de regras difusas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This graduate thesis proposes a model to asynchronously replicate heterogeneous databases. This model singularly combines -in a systematic way and in a single project -different concepts, techniques and paradigms related to the areas of database replication and management of heterogeneous databases. One of the main advantages of the replication is to allow applications to continue to process information, during time intervals when they are off the network and to trigger the database synchronization, as soon as the network connection is reestablished. Therefore, the model introduces a communication and update protocol that takes in consideration the environment of asynchronous characteristics used. As part of the work, a tool was developed in Java language, based on the model s premises in order to process, test, simulate and validate the proposed model

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Ciências Cartográficas - FCT

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Ciência da Computação - IBILCE